224 research outputs found

    Color Image Processing based on Graph Theory

    Full text link
    [ES] La visión artificial es uno de los campos en mayor crecimiento en la actualidad que, junto con otras tecnologías como la Biometría o el Big Data, se ha convertido en el foco de interés de numerosas investigaciones y es considerada como una de las tecnologías del futuro. Este amplio campo abarca diversos métodos entre los que se encuentra el procesamiento y análisis de imágenes digitales. El éxito del análisis de imágenes y otras tareas de procesamiento de alto nivel, como pueden ser el reconocimiento de patrones o la visión 3D, dependerá en gran medida de la buena calidad de las imágenes de partida. Hoy en día existen multitud de factores que dañan las imágenes dificultando la obtención de imágenes de calidad óptima, esto ha convertido el (pre-) procesamiento digital de imágenes en un paso fundamental previo a la aplicación de cualquier otra tarea de procesado. Los factores más comunes son el ruido y las malas condiciones de adquisición: los artefactos provocados por el ruido dificultan la interpretación adecuada de la imagen y la adquisición en condiciones de iluminación o exposición deficientes, como escenas dinámicas, causan pérdida de información de la imagen que puede ser clave para ciertas tareas de procesamiento. Los pasos de (pre-)procesamiento de imágenes conocidos como suavizado y realce se aplican comúnmente para solventar estos problemas: El suavizado tiene por objeto reducir el ruido mientras que el realce se centra en mejorar o recuperar la información imprecisa o dañada. Con estos métodos conseguimos reparar información de los detalles y bordes de la imagen con una nitidez insuficiente o un contenido borroso que impide el (post-)procesamiento óptimo de la imagen. Existen numerosos métodos que suavizan el ruido de una imagen, sin embargo, en muchos casos el proceso de filtrado provoca emborronamiento en los bordes y detalles de la imagen. De igual manera podemos encontrar una enorme cantidad de técnicas de realce que intentan combatir las pérdidas de información, sin embargo, estas técnicas no contemplan la existencia de ruido en la imagen que procesan: ante una imagen ruidosa, cualquier técnica de realce provocará también un aumento del ruido. Aunque la idea intuitiva para solucionar este último caso será el previo filtrado y posterior realce, este enfoque ha demostrado no ser óptimo: el filtrado podrá eliminar información que, a su vez, podría no ser recuperable en el siguiente paso de realce. En la presente tesis doctoral se propone un modelo basado en teoría de grafos para el procesamiento de imágenes en color. En este modelo, se construye un grafo para cada píxel de tal manera que sus propiedades permiten caracterizar y clasificar dicho pixel. Como veremos, el modelo propuesto es robusto y capaz de adaptarse a una gran variedad de aplicaciones. En particular, aplicamos el modelo para crear nuevas soluciones a los dos problemas fundamentales del procesamiento de imágenes: suavizado y realce. Se ha estudiado el modelo en profundidad en función del umbral, parámetro clave que asegura la correcta clasificación de los píxeles de la imagen. Además, también se han estudiado las posibles características y posibilidades del modelo que nos han permitido sacarle el máximo partido en cada una de las posibles aplicaciones. Basado en este modelo se ha diseñado un filtro adaptativo capaz de eliminar ruido gaussiano de una imagen sin difuminar los bordes ni perder información de los detalles. Además, también ha permitido desarrollar un método capaz de realzar los bordes y detalles de una imagen al mismo tiempo que se suaviza el ruido presente en la misma. Esta aplicación simultánea consigue combinar dos operaciones opuestas por definición y superar así los inconvenientes presentados por el enfoque en dos etapas.[CA] La visió artificial és un dels camps en major creixement en l'actualitat que, junt amb altres tecnlogies com la Biometria o el Big Data, s'ha convertit en el focus d'interés de nombroses investigacions i és considerada com una de les tecnologies del futur. Aquest ampli camp comprén diversos m`etodes entre els quals es troba el processament digital d'imatges i anàlisis d'imatges digitals. L'èxit de l'anàlisis d'imatges i altres tasques de processament d'alt nivell, com poden ser el reconeixement de patrons o la visió 3D, dependrà en gran manera de la bona qualitat de les imatges de partida. Avui dia existeixen multitud de factors que danyen les imatges dificultant l'obtenció d'imatges de qualitat òptima, açò ha convertit el (pre-) processament digital d'imatges en un pas fonamental previa la l'aplicació de qualsevol altra tasca de processament. Els factors més comuns són el soroll i les males condicions d'adquisició: els artefactes provocats pel soroll dificulten la inter- pretació adequada de la imatge i l'adquisició en condicions d'il·luminació o exposició deficients, com a escenes dinàmiques, causen pèrdua d'informació de la imatge que pot ser clau per a certes tasques de processament. Els passos de (pre-) processament d'imatges coneguts com suavitzat i realç s'apliquen comunament per a resoldre aquests problemes: El suavitzat té com a objecte reduir el soroll mentres que el real se centra a millorar o recuperar la informació imprecisa o danyada. Amb aquests mètodes aconseguim reparar informació dels detalls i bords de la imatge amb una nitidesa insuficient o un contingut borrós que impedeix el (post-)processament òptim de la imatge. Existeixen nombrosos mètodes que suavitzen el soroll d'una imatge, no obstant això, en molts casos el procés de filtrat provoca emborronamiento en els bords i detalls de la imatge. De la mateixa manera podem trobar una enorme quantitat de tècniques de realç que intenten combatre les pèrdues d'informació, no obstant això, aquestes tècniques no contemplen l'existència de soroll en la imatge que processen: davant d'una image sorollosa, qualsevol tècnica de realç provocarà també un augment del soroll. Encara que la idea intuïtiva per a solucionar aquest últim cas seria el previ filtrat i posterior realç, aquest enfocament ha demostrat no ser òptim: el filtrat podria eliminar informació que, al seu torn, podria no ser recuperable en el seguënt pas de realç. En la present Tesi doctoral es proposa un model basat en teoria de grafs per al processament d'imatges en color. En aquest model, es construïx un graf per a cada píxel de tal manera que les seues propietats permeten caracteritzar i classificar el píxel en quëstió. Com veurem, el model proposat és robust i capaç d'adaptar-se a una gran varietat d'aplicacions. En particular, apliquem el model per a crear noves solucions als dos problemes fonamentals del processament d'imatges: suavitzat i realç. S'ha estudiat el model en profunditat en funció del llindar, paràmetre clau que assegura la correcta classificació dels píxels de la imatge. A més, també s'han estudiat les possibles característiques i possibilitats del model que ens han permés traure-li el màxim partit en cadascuna de les possibles aplicacions. Basat en aquest model s'ha dissenyat un filtre adaptatiu capaç d'eliminar soroll gaussià d'una imatge sense difuminar els bords ni perdre informació dels detalls. A més, també ha permés desenvolupar un mètode capaç de realçar els bords i detalls d'una imatge al mateix temps que se suavitza el soroll present en la mateixa. Aquesta aplicació simultània aconseguix combinar dues operacions oposades per definició i superar així els inconvenients presentats per l'enfocament en dues etapes.[EN] Computer vision is one of the fastest growing fields at present which, along with other technologies such as Biometrics or Big Data, has become the focus of interest of many research projects and it is considered one of the technologies of the future. This broad field includes a plethora of digital image processing and analysis tasks. To guarantee the success of image analysis and other high-level processing tasks as 3D imaging or pattern recognition, it is critical to improve the quality of the raw images acquired. Nowadays all images are affected by different factors that hinder the achievement of optimal image quality, making digital image processing a fundamental step prior to the application of any other practical application. The most common of these factors are noise and poor acquisition conditions: noise artefacts hamper proper image interpretation of the image; and acquisition in poor lighting or exposure conditions, such as dynamic scenes, causes loss of image information that can be key for certain processing tasks. Image (pre-) processing steps known as smoothing and sharpening are commonly applied to overcome these inconveniences: Smoothing is aimed at reducing noise and sharpening at improving or recovering imprecise or damaged information of image details and edges with insufficient sharpness or blurred content that prevents optimal image (post-)processing. There are many methods for smoothing the noise in an image, however in many cases the filtering process causes blurring at the edges and details of the image. Besides, there are also many sharpening techniques, which try to combat the loss of information due to blurring of image texture and need to contemplate the existence of noise in the image they process. When dealing with a noisy image, any sharpening technique may amplify the noise. Although the intuitive idea to solve this last case would be the previous filtering and later sharpening, this approach has proved not to be optimal: the filtering could remove information that, in turn, may not be recoverable in the later sharpening step. In the present PhD dissertation we propose a model based on graph theory for color image processing from a vector approach. In this model, a graph is built for each pixel in such a way that its features allow to characterize and classify the pixel. As we will show, the model we proposed is robust and versatile: potentially able to adapt to a variety of applications. In particular, we apply the model to create new solutions for the two fundamentals problems in image processing: smoothing and sharpening. To approach high performance image smoothing we use the proposed model to determine if a pixel belongs to a at region or not, taking into account the need to achieve a high-precision classification even in the presence of noise. Thus, we build an adaptive soft-switching filter by employing the pixel classification to combine the outputs from a filter with high smoothing capability and a softer one to smooth edge/detail regions. Further, another application of our model allows to use pixels characterization to successfully perform a simultaneous smoothing and sharpening of color images. In this way, we address one of the classical challenges within the image processing field. We compare all the image processing techniques proposed with other state-of-the-art methods to show that they are competitive both from an objective (numerical) and visual evaluation point of view.Pérez Benito, C. (2019). Color Image Processing based on Graph Theory [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/123955TESI

    A model based on local graphs for colour images and its application for Gaussian noise smoothing

    Full text link
    [EN] In this paper, a new model for processing colour images is presented. A graph is built for each image pixel taking into account some constraints on links. Each pixel is characterized depending on the features of its related graph, which allows to process it appropriately. As an example, we provide a characterization of each pixel based on the link cardinality of its connected component. This feature enables us to properly distinguish flat image regions respect to edge and detail regions. According to this, we have designed a hybrid filter for colour image smoothing. It combines a filter able to properly process flat image regions with another one that is more appropriate for details and texture. Experimental results show that our model performs appropriately. We also see that our proposed filter is competitive with respect to state-of-the-art methods. It is close closer to the corresponding optimal switching filter respect to other analogous hybrid method.Samuel Morillas acknowledges the support of grant MTM2015-64373-P (MINECO/FEDER, UE). Cristina Jordan acknowledges the support of grant TEC2016-79884-C2-2-R.Pérez-Benito, C.; Morillas, S.; Jordan-Lluch, C.; Conejero, JA. (2018). A model based on local graphs for colour images and its application for Gaussian noise smoothing. Journal of Computational and Applied Mathematics. 330:955-964. https://doi.org/10.1016/j.cam.2017.05.013S95596433

    Graph-based methods for simultaneous smoothing and sharpening of color images

    Full text link
    [EN] In this work we introduce an image characterization of pixels based on local graphs that allows to distinguish different local regions around a pixel. This separation also permits us to develop a method for determining the role of each pixel in a neighborhood of any other, either for smoothing or for sharpening. Two methods for simultaneously conducting both processes are provided. Our solution overcomes the drawbacks of the classic two steps sequential smoothing and sharpening process: enhancing details while reducing noise and not losing critical information. The parameters of the methods are adjusted in two different ways: through observers visual quality optimization and with an objective optimization criterion. The results show that our methods outperform other recent state-of-the-art ones.We thank F. Russo for providing the implementation of the Fuzzy method and V. Ratmer, and Y.Y. Zeevi for providing the implementation of the FAB method. Cristina Jordan acknowledges the support of grant TEC2016-79884-C2-2-R. Samuel Morillas acknowledges the support of grant MTM2015-64373-P (MINECO/FEDER, Spain, UE).Pérez-Benito, C.; Jordan-Lluch, C.; Conejero, JA.; Morillas, S. (2019). Graph-based methods for simultaneous smoothing and sharpening of color images. Journal of Computational and Applied Mathematics. 350:380-395. https://doi.org/10.1016/j.cam.2018.10.031S38039535

    La Economía Colaborativa y la Educación Online: Lecciones a Tener en Cuenta por las Instituciones Académicas

    Full text link
    [ES] La COVID-19 ha desafiado los procedimientos y estrategias de las empresas desde el inicio de la pandemia y el campo de la educación no ha sido una excepción. Las instituciones educativas se han visto forzadas a mover sus operaciones a un modelo online de manera inesperada, teniendo que reinventar sus procedimientos para enfrentar los desafíos que han ido surgiendo. Debido a la limitada experiencia de la mayoría de profesores, estudiantes, e incluso universidades, la transición no fue tan ágil o eficiente como debería haber sido. Este escenario debe ser tomado como una oportunidad para mejorar los procesos y adaptarlos a las nuevas tendencias. Para llevar a cabo estos cambios, las instituciones educativas podrían recurrir a las plataformas de economía colaborativa centradas en el sector del aprendizaje y adoptar algunas de sus características más populares. Este estudio compara tres métodos de enseñanza, el presencial, el presencial transformado en online y el que siguen las plataformas, y ofrece sugerencias sobre cómo las universidades podrían mejorar su sistema.Pérez-Pérez, C.; Benito-Osorio, D.; García-Moreno, S. (2022). La Economía Colaborativa y la Educación Online: Lecciones a Tener en Cuenta por las Instituciones Académicas. En Proceedings INNODOCT/21. International Conference on Innovation, Documentation and Education. Editorial Universitat Politècnica de València. 281-289. https://doi.org/10.4995/INN2021.2021.1332328128

    Las plataformas de aprendizaje: El caso de España

    Full text link
    [ES] Las plataformas de aprendizaje suponen una alternativa para aquellas personas con necesidades formativas que, por un motivo u otro, no son cubiertas por las universidades. Al contrario que las universidades, las cuales tienen un modelo muy rígido, estas plataformas ofrecen una experiencia flexible y personalizable al usuario, lo cual hace la conciliación entre el trabajo y los estudios más sencilla. Esta flexibilidad permite, igualmente, que las plataformas sean capaces de mantenerse al día de las tendencias y adecuar sus materiales a las demandas del mercado. Este estudio analiza las plataformas de aprendizaje españolas y reflexiona acerca de los motivos que llevan a los usuarios a decantarse por una alternativa de formación u otra.Pérez-Pérez, C.; Benito-Osorio, D.; García-Moreno, S. (2022). Las plataformas de aprendizaje: El caso de España. En Proceedings INNODOCT/21. International Conference on Innovation, Documentation and Education. Editorial Universitat Politècnica de València. 291-298. https://doi.org/10.4995/INN2021.2021.1332429129

    Risk of contagion of SARS-CoV-2 among otorhinolaryngologists in Spain during the 'Two waves'.

    Full text link
    Introduction The aim of our study was to obtain data about the contagion rate among Otolaryngologists in Spanish ENT Departments and about the clinical outcomes in positive otolaryngologists. As a secondary objective, we aim to assess the rate of contagion in the first and the second Covid-19 wave in Spain among Otorhinolaryngologists and the regional distribution by ENT-Departments. Methods Study design and population: This is a prospective observational study in a cohort of 975 Otolaryngologists from 87 ENT Departments conducted from March 25 to November 17 in our collaborative group, COVID ORL ESP. COVID-19 polymerase chain reaction (PCR) was the diagnostic standard. Hospitalization and/or intensive care admission and mortality was recorded as non-identified data. Results Data collected from 975 otolaryngologist from 87 Departments resulted in 157 (16.5%) otolaryngologists testing positive for SARS-CoV-19 by RT-PCR. Important geographic differences in contagion are reported. A total of 136 (86.6%) otolaryngologists were tested positive during the first wave and 21 (13.3%) during the second wave. At the last cut-off point of the study only 30/87 ENT Departments (34.5%) remained COVID19-free and 5 Departments reported more than 50% staff members testing positive. The majority of positive tested otolaryngologists (126/157; 80.2%) had only mild or no symptoms, 17 developed moderate symptoms (10.8%) and 3 had pneumonia not requiring hospitalization (2%). Five colleagues were admitted at hospital, 4 required ICU (2.5%) and 2 colleges died from COVID-19. Conclusions During the first wave of the SARS-CoV-19 pandemic otolaryngologists in Spain have been overall the group suffering the highest rate of contagion, particularly during the first month. Subsequently, the Spanish Ministry of Health should include otorhinolaryngologists as a high-risk group in airborne pandemics

    Determination of connected components in the analysis of homogeneous and detail zones in color images

    Full text link
    [EN] A model based on local graphs to classify pixels coming from at or detail regions of an image is presented. For each pixel a local graph is dened. Its structure will depend on the similarity between neighbouring pixels. Its features allow us to classify each image pixel as belonging to one type of region or the other. This classication is an essential pre-processing technique for many Computer Vision tools, such as smoothingor sharpening of digital color images.[ES] Presentamos un modelo basado en grafos locales para clasificar los píxeles atendiendo a si pertenecen a zonas homogéneas o a zonas de detalle de una imagen. Para cada píxel se define un grafo cuya estructura dependerá de la similitud entre los píxeles adyacentes. Sus características permiten clasificar cada píxel de la imagen como perteneciente a un tipo de zona u a otra. Esta clasificación constituye un pre-procesado de la imagen primordial para múltiples ramas de Visión Artificial, como puede ser el suavizado o el realce de imágenes digitales.Samuel Morillas: MTM2015-64373-P (MINECO/FEDER);Cristina Jordán: MECD TEC2016-79884-C2-2-R y Samuel Morillas, Cristina Jordán y J. Alberto Conejero: Proyecto de Innovación Docente del Depto. de Matemática Aplicada de la Universitat Politècnica de València, PID-DMA2016: Prácticas de Teoría de Grafos aplicadas al procesamiento de imágenes.Pérez-Benito, C.; Morillas, S.; Jordán, C.; Conejero, JA. (2018). Determinación de componentes conexas en el análisis de zonas homogéneas y de detalle en imágenes a color. Modelling in Science Education and Learning. 11(1):5-14. https://doi.org/10.4995/msel.2018.7784SWORD51411

    Manejo en bancos de germoplasma: estrategia para la ruptura de dormición de semillas de leguminosas

    Full text link
    La gestión de los bancos de germoplasma mediante la conservación de semillas se encuentra en ocasiones con dificultades técnicas que pueden llegar a hacer su tarea poco eficiente. Una de esas dificultades puede ser el llevar a cabo los ensayos de viabilidad de las semillas de forma que los resultados se acerquen lo más posible a la verdadera situación de los lotes estudiados. Este aspecto tiene especial importancia en aquellos casos en los que las semillas presentan dormición. Una característica de las semillas de especies de la familia Fabaceae es presentar cubiertas duras. En estos casos la estrategia a aplicar se basa en utilizar tratamientos de escarificación. Sin embargo, en ocasiones, la variabilidad dentro de un lote de semillas y entre lotes (por ejemplo distintas poblaciones de una misma especie) puede ser muy elevada. El objetivo de este trabajo fue estudiar la variabilidad de la dureza de las cubiertas seminales entre cuatro poblaciones de cada una de estas especies: Medicago polymorpha, Trifolium glomeratum y T. subterraneum. Estas especies presentan además semillas de muy pequeño tamaño que dificultan los tratamientos de escarificación. Se utilizaron diversos tratamientos de escarificación que incluían el lijado de las semillas y tratamientos térmicos (frío, calor o cambios bruscos de temperatura). Los mejores tratamientos variaron con las especies y se pudo determinar aquellos que dieron los mejores resultados en las cuatro poblaciones estudiadas, de forma que la germinación aumentó desde un 0-10 % de las semillas control a 84-100 % en las escarificadas. Mediante el equipo Texture Analyzer TAXTPLUS se midió la dureza de las semillas, en relación a su resistencia a la rotura. Se observó una gran variabilidad dentro de cada población y entre poblaciones. La contribución en la reducción de la dureza de las cubiertas del mejor tratamiento de escarificación varió entre especies y entre poblaciones. Se discute la utilidad del estudio previo de la dureza de las semillas para determinar el mejor tratamiento a emplear. Agradecimientos: Proyecto RF2012-00014-C02-0

    Structural determinants of the neuronal glycine transporter 2 for the selective inhibitors ALX1393 and ORG25543

    Full text link
    The neuronal glycine transporter GlyT2 modulates inhibitory glycinergic neurotransmission by controlling the extracellular concentration of synaptic glycine and the supply of neurotransmitter to the presynaptic terminal. Spinal cord glycinergic neurons present in the dorsal horn diminish their activity in pathological pain conditions and behave as gate keepers of the touch-pain circuitry. The pharmacological blockade of GlyT2 reduces the progression of the painful signal to rostral areas of the central nervous system by increasing glycine extracellular levels, so it has analgesic action. O-[(2-benzyloxyphenyl-3-fluorophenyl)methyl]-L-serine (ALX1393) and N-[[1-(dimethylamino)cyclopentyl]methyl]-3,5-dimethoxy-4-(phenylmethoxy)benzamide (ORG25543) are two selective GlyT2 inhibitors with nanomolar affinity for the transporter and analgesic effects in pain animal models, although with deficiencies which preclude further clinical development. In this report, we performed a comparative ligand docking of ALX1393 and ORG25543 on a validated GlyT2 structural model including all ligand sites constructed by homology with the crystallized dopamine transporter from Drosophila melanogaster. Molecular dynamics simulations and energy analysis of the complex and functional analysis of a series of point mutants permitted to determine the structural determinants of ALX1393 and ORG25543 discrimination by GlyT2. The ligands establish simultaneous contacts with residues present in transmembrane domains 1, 3, 6, and 8 and block the transporter in outward-facing conformation and hence inhibit glycine transport. In addition, differential interactions of ALX1393 with the cation bound at Na1 site and ORG25543 with TM10 define the differential sites of the inhibitors and explain some of their individual features. Structural information about the interactions with GlyT2 may provide useful tools for new drug discoveryThis work was supported by grants of the Spanish ‘Ministerio de Economía y Competitividad’, grant number SAF2017-84235-R (AEI/FEDER, EU) to B.L.-C. and by institutional grants from the Fundación Ramón Areces and Banco de Santander to the CBMS

    In vivo measurements with a 64-channel extracellular neural recording integrated circuit

    Get PDF
    This paper presents in vivo measurements obtained from an implantable 64-channel neural recording Application Specific Integrated Circuit (ASIC) developed at IMSE and gives details of the computer interface used for real-time data acquisition. This interface connects the ASIC to a conventional 2.0 USB port by means of a Field Programmable Gate Array (FPGA). Communications are bidirectional and employ custom protocols both for delivering commands to the ASIC and for recording neural information under different channel selection and operation modes. The link is controlled by a user-friendly programming interface written in C++ which includes a built-in routine to efficiently index and store the captured data. Measurements demonstrate the suitability of the ASIC for capturing local field and action potentials with two different microelectrode array platforms.Ministerio de Economía y Competitividad TEC2012-3363
    corecore